对于现实和生动的着色,最近已经利用了生成先验。但是,由于其表示空间有限,因此这种生成先验的野外复杂图像通常会失败。在本文中,我们提出了BigColor,这是一种新型的着色方法,可为具有复杂结构的不同野外图像提供生动的着色。虽然先前的生成先验训练以综合图像结构和颜色,但我们在关注颜色合成之前就学会了一种生成颜色,鉴于图像的空间结构。通过这种方式,我们减轻了从生成先验中合成图像结构的负担,并扩大其表示空间以覆盖各种图像。为此,我们提出了一个以Biggan启发的编码生成网络,该网络使用空间特征映射而不是空间框架的Biggan潜在代码,从而产生了扩大的表示空间。我们的方法可以在单个正向传球中为各种输入提供强大的着色,支持任意输入分辨率,并提供多模式着色结果。我们证明,BigColor明显优于现有方法,尤其是在具有复杂结构的野外图像上。
translated by 谷歌翻译
近年来,通过开发大型的深层模型,图像修复任务已经见证了绩效的巨大提高。尽管表现出色,但深层模型要求的重量计算限制了图像恢复的应用。为了提高限制,需要减少网络的大小,同时保持准确性。最近,N:M结构化修剪似乎是使模型具有准确性约束的有效且实用的修剪方法之一。但是,它无法解释图像恢复网络不同层的不同计算复杂性和性能要求。为了进一步优化效率和恢复精度之间的权衡,我们提出了一种新型的修剪方法,该方法确定了每一层N:M结构稀疏性的修剪比。关于超分辨率和脱张任务的广泛实验结果证明了我们方法的功效,该方法的表现胜过以前的修剪方法。拟议方法的Pytorch实施将在https://github.com/junghunoh/sls_cvpr2r2022上公开获得。
translated by 谷歌翻译
图像合成的现有方法利用基于堆叠的堆叠和池层的样式编码器,以从输入图像生成样式代码。然而,编码的矢量不一定包含相应图像的本地信息,因为通过这种缩小程序往往将小规模对象倾向于“撤离”。在本文中,我们提出了基于Superpixel的式编码器的深度图像合成,名为SuperstyLeNet。首先,我们基于SuperPixels直接从原始图像中提取样式代码,以考虑本地对象。其次,基于图形分析,我们在矢量化风格代码中恢复空间关系。因此,所提出的网络通过将样式代码映射到语义标签来实现高质量的图像合成。实验结果表明,该方法在视觉质量和定量测量方面优于最先进的方法。此外,我们通过调整样式代码来实现精心制作的空间方式编辑。
translated by 谷歌翻译
自我监督的学习是一个有希望的无监督学习框架,实现了大型浮点网络取得成功。但这种网络不易部署到边缘设备。为了加速模型部署模型,在为各种下游任务中学习这种资源有限的设备的益处,我们向使用移动目标网络的二进制网络提出了一种自我监督的学习方法。特别是,我们建议共同列车,随机初始化的分类器,附加到预用浮点特征提取器,具有二进制网络。此外,我们提出了一种特征相似性损失,动态丢失平衡和改进的多级训练,以进一步提高准确性,并呼叫我们的方法燃烧。我们使用七个数据集的五个下游任务的经验验证显示,烧伤优于二进制网络的自我监督基线,有时优于预测预测。
translated by 谷歌翻译
深度神经网络(DNN)的训练过程通常是用阶段进行管道的,用于在CPU上进行数据制备,然后对GPU等加速器进行梯度计算。在理想的管道中,端到端训练吞吐量最终受到加速器的吞吐量的限制,而不是数据准备。过去,DNN训练管道通过使用使用轻巧,有损的图像格式(如JPEG)编码的数据集实现了近乎最佳的吞吐量。但是,随着高分辨率,无损编码的数据集变得越来越流行,对于需要高精度的应用程序,由于CPU上的低通量图像解码,在数据准备阶段出现了性能问题。因此,我们提出了L3,这是一种用于高分辨率,高通量DNN训练的定制轻巧,无损的图像格式。 L3的解码过程在加速器上有效平行,从而最大程度地减少了在DNN培训期间进行数据制备的CPU干预。 L3比最流行的无损图像格式PNG获得了9.29倍的数据准备吞吐量,用于NVIDIA A100 GPU上的CityScapes数据集,该数据集可导致1.71倍更高的端到端训练吞吐量。与JPEG和WebP相比,两种流行的有损图像格式,L3分别以同等的度量性能为Imagenet提供高达1.77倍和2.87倍的端到端训练吞吐量。
translated by 谷歌翻译
无源的无监督域适应性(SFUDA)旨在使用预训练的源模型而不是源数据来获得未标记的目标域中的高性能。现有的SFUDA方法为所有目标样本分配了相同的重要性,这很容易受到错误的伪标记。为了区分样本重要性,在这项研究中,我们提出了一个新的样本置信度评分,即SFUDA的联合模型数据结构(JMDS)得分。与仅使用源或目标域知识之一的现有置信分数不同,JMDS分数都使用了两种知识。然后,我们建议使用SFUDA的JMDS(COWA-JMDS)框架进行置信度评分适应。 COWA-JMD由JMDS分数作为样品重量和权重混合,这是我们提出的混合变体。重量混合促进该模型更多地利用目标域知识。实验结果表明,JMDS得分的表现优于现有的置信得分。此外,Cowa-JMDS在各种SFUDA方案:封闭,开放和部分集合方案中实现最先进的表现。
translated by 谷歌翻译
与人类沟通对AIS有挑战性,因为它需要对世界的共同理解,复杂的语义(例如,隐喻或类似物),并且在多码模态手势(例如,指向手指,或图中的箭头)。我们在基于图案的基础上的绘画和猜测的语境中调查了这些挑战,这对研究界构成了一种新的挑战。在ICONARY中,猜测者试图通过编写图标来识别抽屉绘制的短语,以及抽屉迭代地修改绘图以帮助猜测响应的猜测。这次来回经常使用规范场景,视觉隐喻或图标组成来表达具有挑战性的词语,使其成为AI中混合语言和视觉/象征性通信的理想测试。我们提出模型进行图标,并在人类球员之间的55,000多场比赛中培训。我们的型号是熟练的玩家,能够在语言模型中雇用世界知识,以便在训练期间与看不见的文字一起玩。精英人类球员优于我们的模型,特别是在绘图任务中,留下了未来研究的重要缺口。我们将数据集,代码和评估设置释放为对社区的挑战http://www.github.com/allenai/conary。
translated by 谷歌翻译
估计河床型材,也称为沐浴型,在许多应用中起着至关重要的作用,例如安全有效的内陆导航,对银行侵蚀,地面沉降和洪水风险管理的预测。直接沐浴术调查的高成本和复杂物流,即深度成像,鼓励使用间接测量,例如表面流速。然而,从间接测量估计高分辨率的沐浴族是可以计算地具有挑战性的逆问题。在这里,我们提出了一种基于阶的模型(ROM)的方法,其利用变形的自动化器(VAE),一系列深神经网络,中间具有窄层,以压缩沐浴族和流速信息并加速沐浴逆问题流速测量。在我们的应用中,浅水方程(SWE)具有适当的边界条件(BCS),例如排出和/或自由表面升高,构成前向问题,以预测流速。然后,通过变分编码器在低维度的非线性歧管上构造SWES的ROM。利用不确定性量化(UQ)的估计在贝叶斯环境中的低维潜空间上执行。我们已经在美国萨凡纳河的一英里接触到美国,测试了我们的反转方法。一旦培训了神经网络(离线阶段),所提出的技术就可以比通常基于线性投影的传统反转方法更快地执行幅度的反转操作级,例如主成分分析(PCA)或主要成分地质统计方法(PCGA)。此外,即使具有稀疏的流速测量,测试也可以估计算法估计良好的精度均匀的浴权。
translated by 谷歌翻译
在许多应用中,河流流速的快速可靠预测在包括洪水风险管理的许多应用中都很重要。浅水方程(SWES)通常用于此目的。然而,SWES的传统数值求解器是计算昂贵的并且需要高分辨率河床型材测量(沐浴浴)。在这项工作中,我们提出了一个两级过程,首先,使用主成分地质统计方法(PCGA)我们估计来自流速测量的浴序的概率密度函数,然后使用机器学习(ML)算法获得用于SWES的快速求解器。快速求解器使用从后浴碱分布的实现,并作为输入的规定范围的BCS。第一阶段允许我们预测流速而不直接测量浴约定。此外,我们将浴约集后部分布增强到更一般的分布,然后将它们作为第二阶段中的ML算法的输入作为输入。这允许求解器将未来的直接浴权测量结合到流速预测中,以提高精度,即使沐浴术与原始间接估计相比随时间变化而变化。我们提出并基准三种不同的求解器,称为PCA-DNN(主成分分析 - 深神经网络),SE(监督编码器)和SVE(监督变分编码器),并在Savannah River,Augusta,GA上验证它们。我们的研究结果表明,快速溶剂能够以良好的准确度预测不同的浴序和BCS的流速,以计算成本明显低于解决传统方法的全边界值问题的成本。
translated by 谷歌翻译
Continual Learning (CL) is an emerging machine learning paradigm that aims to learn from a continuous stream of tasks without forgetting knowledge learned from the previous tasks. To avoid performance decrease caused by forgetting, prior studies exploit episodic memory (EM), which stores a subset of the past observed samples while learning from new non-i.i.d. data. Despite the promising results, since CL is often assumed to execute on mobile or IoT devices, the EM size is bounded by the small hardware memory capacity and makes it infeasible to meet the accuracy requirements for real-world applications. Specifically, all prior CL methods discard samples overflowed from the EM and can never retrieve them back for subsequent training steps, incurring loss of information that would exacerbate catastrophic forgetting. We explore a novel hierarchical EM management strategy to address the forgetting issue. In particular, in mobile and IoT devices, real-time data can be stored not just in high-speed RAMs but in internal storage devices as well, which offer significantly larger capacity than the RAMs. Based on this insight, we propose to exploit the abundant storage to preserve past experiences and alleviate the forgetting by allowing CL to efficiently migrate samples between memory and storage without being interfered by the slow access speed of the storage. We call it Carousel Memory (CarM). As CarM is complementary to existing CL methods, we conduct extensive evaluations of our method with seven popular CL methods and show that CarM significantly improves the accuracy of the methods across different settings by large margins in final average accuracy (up to 28.4%) while retaining the same training efficiency.
translated by 谷歌翻译